别急着转行!扒完知乎几十个高赞回答,我发现“AI取代理科”这事没那么简单

小编头像

小编

管理员

发布于:2026年05月02日

7 阅读 · 0 评论

我这几天刷知乎,越刷越焦虑。

你猜怎么着?一边是各种大新闻刷屏——Anthropic的联合创始人Jared Kaplan(这哥们儿自己就是哈佛物理博士出身)直接放话,说未来两三年,AI有50%的概率能写出媲美顶级物理学家的论文,甚至包括菲尔兹奖级别的成果-8。另一边又是各种“实测”,浙大老师把大学物理期末考卷扔给DeepSeek,人家直接拿满分,而人类考生里能考满分的“可能也就1%”-3

说真的,看到这些的时候,我手心都出汗了。作为一个当年差点被高数逼疯的理科生,我脑子里嗡嗡的:这世道变天了啊?当年我们哭着喊着啃的微积分、量子力学,以后是不是AI几秒钟就搞定了?那学了这么多年理科,到底图个啥?特别是知乎上那个被浏览了3万多次的热门问题——“AI会取代理科吗知乎”,底下的回答我看了一宿,看完反而有点清醒了。

今天我就把我在知乎上扒到的那些“高赞干货”给大伙儿整理整理,咱不说那些虚头巴脑的理论,就聊聊大实话。

一、理科生别慌!AI考满分≠能搞科研

先别急着把专业书卖了。

没错,AI现在考试确实牛。那位浙大的物理老师姬扬做了个挺损的实验,他把三次大学物理考试的题目喂给AI,结果AI期末考试100分(满分100),物理竞赛200分(满分200)。人类选手呢?能考满分的凤毛麟角-3。这事儿要是让不知情的人看见,肯定得说“完了,物理老师要失业了”。

但这里头有个特别关键的坑——考试考得好,不代表会做科研。

打个比方,这就好比你让一个记忆力超强的人参加开卷考试,他翻书速度贼快,把所有标准答案都抄上了,得了满分。但你能说他会搞科研吗?不能啊!科研不是做卷子,科研是在没有标准答案的地方找答案

知乎上有个搞物理的答主“佳人李大花”说得特别扎心。他说,现在AI写代码是快,但有个致命问题——你敢不敢不检查直接用AI生成的数据发论文? 你敢吗?反正他不敢。因为AI经常为了“跑得快”偷摸简化模型,比如删掉一个关键的微扰项,或者把哈密顿量矩阵的正负号弄反。代码能跑通,但数据全是错的-5

你要真把AI当“科研民工”使唤,那可以。但你要让它当“总工程师”,它目前连门儿都没有。

二、那AI到底在取代什么?——别把“搬砖”当“盖楼”

这个观点是我在知乎上看到一个回答后瞬间通透的。

AI正在取代的不是“理科”,而是“理科里那些不需要思考的重复劳动”。

你想想,以前的理科生——特别是做理论物理、做计算的——每天在干啥?调代码、改参数、画图、翻译公式到代码、查文献……这些活儿说白了,是“搬砖”,不是“盖楼”。真正“盖楼”的那一步——提出一个好问题、设计一个没人想过的实验思路、从一堆看似矛盾的数据里揪出本质——这些,AI基本干不了。

有个答主分享了个特形象的比喻:AI现在就像个“高温状态下的开普勒”-7。开普勒当年为了找行星运动规律,啥假设都敢提,正多面体嵌套、行星音乐和声……90%都是错的,但他就靠着第谷那“黄金数据”反复筛选,最后筛出了三大定律。

AI现在也是这德行——它能给你海量生成“想法”,一天扔给你几千个“可能对”的猜测。但哪个真对?哪个值得深挖?这个筛选和验证的过程,还得靠人。

所以你看,AI的出现没有消灭理科,它只是把“理科生”的及格线往上拽了一大截。以前你只要会算会写代码,就算个合格的理科生了。以后不行了,以后你得像陶哲轩说的那样,去干那些AI干不了的事儿——比如判断一个“半吊子进展”到底有没有价值,比如建立新的概念框架-7

三、有人真怕了?那是你没看懂“杰文斯悖论”

我还注意到一个现象——有些搞科研的朋友是真的焦虑,觉得AI把“从模型到代码”这步抢了,自己就没活儿干了。

但你看看经济学里那个经典的“杰文斯悖论”:19世纪英国人发现,蒸汽机效率越高、烧煤越少,结果煤炭总消耗量反而暴增。为啥?因为效率高了、成本低了,用的人更多了,总需求反而暴涨-5

科研也一样。AI把代码实现、数据整理这些环节的成本打下来之后,你以为物理学家们就能躺平了?想得美!那些给你提需求的人会说:“既然验证一个模型只要几天了,那你给我测试200种排列组合,再把以前不敢算的多维相互作用全加上!”

工作量不会减少,只会换一种方式爆炸式增长。 你的工作内容会从“写代码”变成“设计实验、筛选假设、交叉验证”——这些活儿,比写代码更烧脑,也更值钱。

四、教育的“新猫鼠游戏”:AI时代的理科该怎么学?

说到这儿,我不得不提一个特别现实的痛点——现在的大学生到底该咋学?

我刷到一篇科普中国的深度报道,讲的是大学课堂里的“AI猫鼠游戏”-9。老师在上面苦口婆心地教写作,学生在下面用AI一键生成新闻稿,连采访都省了。有个老师吐槽说,看着学生交上来的AI作业,感觉“自己像个傻子,费老大劲教,结果学生拿一堆假东西糊弄”。

但这事儿能全怪学生吗?不能。

问题在于——当AI能轻松搞定“标准答案型作业”时,我们的理科教育还在考什么?

复旦、交大、清华这些学校已经意识到问题了,开始出台各种AI使用规范,有的禁止在论文里用AI生成核心内容,有的要求用AI必须标注-9。但说实话,这些“堵”的办法只能是权宜之计。真正要改的,是理科教育的目标——从“训练学生当人形计算器”,变成“训练学生当问题提出者和验证者”

以后理科考试,考的不应该再是“你能算多快”,而应该是“你能提出一个AI想不到的问题,或者能判断AI给出的100个猜想里哪一个值得试”。

五、给还在纠结的你:3个真实建议

刷了这么多知乎回答,我也不是光焦虑,确实找到了一些方向。如果你跟我一样,正在纠结“AI时代理科还值不值得学”,这3条建议可能有点用:

第一,把AI当“便宜又好用的研究生”使唤。 别跟它抢活儿,把那些琐碎的、重复的、你本来就不爱干的事儿扔给它——查文献、写代码模板、画初稿图、润色文字。省下来的时间,去干它干不了的事儿,比如跟同行深度讨论、跨学科找灵感、死磕那些“反直觉”的细节。

第二,练“提问能力”。 陶哲轩说,AI让“想法”变得廉价,真正的瓶颈是验证-7。但我还想加一句——提问能力会越来越贵。能提出一个好问题的人,永远不会被AI取代。

第三,别怕犯错,怕的是不敢犯错。 开普勒当年要是怕被人笑话,就提不出那个正多面体模型——虽然模型是错的,但正是那个错,逼着他去找第谷的数据,最后发现了椭圆轨道。AI时代,试错的成本变低了,这意味着你更应该去试。


说了这么多,可能还有人心里犯嘀咕。我特意整理了几个知乎上吵得最凶的问题,模仿网友的口吻问了问,也试着给出我的回答,希望能多几个角度看清楚这事儿。


网友1:谁说AI不取代?我学数学的,现在连公式推导AI都比我强,我毕业还能干啥?

这位兄弟,你这个焦虑我能理解。但你可能搞混了一个事儿:AI推导公式比你快,是因为它记住了无数现成的推导路径,而不是因为它“理解”了数学。

我给你说个真实案例。之前有两位研究人员号称用GPT-5一个周末解决了10个“百年悬案”级的埃尔德什难题,结果呢?事后被扒出来,GPT-5做的只是“检索到了已有的研究成果”,根本不是独立提出新证明-1。这事说明啥?说明AI在数学上目前就是个“超级文献检索器”加“组合高手”,它能把已有的方法排列组合、快速试错,但它创造不了新数学。

那你问自己一个问题:你是想当那个“把已知方法排列组合”的人,还是想当那个“创造新方法”的人?如果你只想当前者,那确实,AI比你快。但如果你想当后者,那你需要的是比AI更深的东西——直觉、品味、对一个领域的长期浸淫,以及敢于挑战主流共识的勇气。

这些东西,AI学不来。而且,你想想,当AI把那些机械的推导都干了之后,真正需要创造力的活儿反而更值钱了。你不是没活儿干,你是活儿更多了,只不过活儿变难了。


网友2:我是个理科老师,现在上课特别痛苦,学生作业全是AI写的,我该咋整?

老师您好,您的痛苦我特别理解。我刷到一个数据,说现在超过50%的大学生“经常或总是”用AI辅助学习-9,而且很多老师反映,用AI写作业已经成了一种“内卷”——你不标AI,怕分数低;你标了,又怕老师觉得你不诚实-9

但我觉得这事儿得换个角度看。学生用AI写作业,其实暴露了一个问题:如果作业AI能轻松搞定,说明这个作业本身可能太“标准答案化”了。

我注意到复旦、交大这些学校已经开始探索新的考核方式了。比如有的老师用“自己挖的坑自己填”——期末的时候,把学生一学期用AI辅助完成的作业收集起来,喂给AI,让AI根据每个人的作业生成专属考题-9。这意味着,如果学生当初只是简单复制粘贴,没真正理解,那期末考的时候,AI会把他“没学会”的东西全给揪出来。

还有老师干脆在课堂上教学生怎么用AI,然后考试的时候考的是“你能不能判断AI给出的答案哪个是对的、哪个是幻觉”-9

我觉着这才是正路——与其跟AI赛跑,不如教学生怎么骑上这匹马。 您教的是理科,理科的核心是“理解世界的逻辑”,不是“防止被AI抓到”。您要是能把AI变成您课堂上的助教,而不是对手,那您的课可能会变成全校最抢手的课。


网友3:看了这么多,我还是想问那个最俗的问题——理科生以后还吃香吗?

说实话,这个问题的答案特别简单:吃香,但吃的不是同一种香了。

以前理科生吃香,是因为我们掌握了一套“别人不会的技能”——会算、会编程、会建模。这套技能在当时很稀缺,所以值钱。

但现在AI把这套技能的稀缺性打掉了——或者说,打掉了它“低端部分”的稀缺性。一个不太复杂的建模,AI几秒钟就能搞定,你学了两年的数值计算方法可能不如AI的一个提示词。

但是,另一套技能变得极其稀缺了。

什么技能?提出正确问题的能力、跨学科把不同领域知识串起来的能力、从一堆杂乱的数据里提炼出物理直觉的能力、判断一个AI给出的“猜想”到底值不值得试的能力。 这些技能,AI一个都没有,而且短期内不可能有。

所以你问理科生以后吃不吃香?吃香。但不是因为你“会算”,而是因为你“能想”。AI算得再快,它也只是个工具。工具永远不缺,缺的是知道该用工具干啥的人。

那怎么培养这种能力?我的建议是——别把自己当“工具人”培养,把自己当“问题猎人”培养。多问“为什么”,多跨领域看东西,多跟不同专业的人瞎聊,多尝试那些“可能没用但很有趣”的想法。这些事儿,AI不感兴趣,但你感兴趣,这就够了。

标签:

相关阅读